为了测试这些AI的"抗压能力",一群研究者玩起了"大冒险"。他们搞了一个叫Self-Contradictory Instructions(SCI)的测试,简直就是AI界的"死亡挑战"。这个测试包含了20,000个自相矛盾的指令,涵盖了语言和视觉两大领域。比如,给你看一张猫咪照片,却让你描述这只"狗"。这不是为难人吗?哦不,是为难AI。